电院计算机系智能计算研究组论文《基于可重构式存内计算的通用图神经网络加速》获CCF 您所在的位置:网站首页 iccd ccfb 电院计算机系智能计算研究组论文《基于可重构式存内计算的通用图神经网络加速》获CCF

电院计算机系智能计算研究组论文《基于可重构式存内计算的通用图神经网络加速》获CCF

2024-07-14 03:00| 来源: 网络整理| 查看: 265

近日,由上海交通大学电子信息与电气工程学院计算机科学与工程系智能计算研究组撰写的论文“GIM: Versatile GNN Acceleration with Reconfigurable Processing-in-Memory”在计算机体系结构国际知名学术会议IEEE International Conference on Computer Design(CCF-B)获最佳论文提名。电院计算机系博士生聂晨为第一作者,阿里云陈国洋、张伟丰为合作者,计算机系何哲陟老师为通讯作者。该研究工作得到了国家自然科学基金、国家重点研发计划等资助。

图神经网络计算示例

研究背景

图神经网络是一种流行且高效的专用于非欧几里德图数据的神经网络算法。近年来,图神经网络及其各种变体已广泛应用于现实世界的众多工业和学术领域,包括且不限于推荐系统、蛋白质预测、药物开发等。然而,在大数据时代,数据量的增加和计算的不规则性对传统以处理器为中心的计算机架构提出了巨大的挑战,其性能受到大量数据搬移和缓慢发展的内存技术的限制。此前有利用存内计算的计算范式实现图神经网络计算的加速的硬件架构设计,然而其仍有面积开销大、低容错、低利用率等缺点。

图神经网络计算加速器架构示意图

内容摘要

作者提出了一种用于支持多种图神经网络加速的存内计算架构GIM。针对图神经网络计算负载的特点,采用了全数字的计算范式,避免了使用面积成本高昂的模拟域外围电路。所有计算由存储阵列旁的高效的数字计算逻辑进行,并且通过集成设计大幅降低面积开销,实现了极高的片上存储密度,取得了更大的片上存储容量和更高的计算并行性。其次,作者在片上集成了高效的稀疏优化电路,从而在不篡改算法的前提下,充分利用图神经网络计算中的操作数级和比特级稀疏性。此外,作者还提出了针对数据布局的优化,通过定制化的数据映射以及高访问结点复制技术,大幅减少计算时的数据通信,缓解图计算非规则访存的缺陷,并显著提高计算的并行度。通过详尽的实验分析,作者提出的计算架构在数个具有代表性的大规模图数据集上,性能均显著优于现有的CPU、GPU及其他存内计算加速器。其中,对比现有领域领先设计,论文提出的架构可实现9倍的吞吐量提升和15倍的能效提升。

作者简介

聂晨,现为上海交通大学计算机科学与技术专业2021级博士生,博士生导师为何哲陟。主要研究方向高性能存内计算架构、芯片设计、软硬件协同优化等。发表论文Nature Communication, TC, ICCD等。

何哲陟,现任上海交通大学计算机科学与工程系助理教授,主要研究方向为智能计算的软硬件跨层次研究,电子设计自动化等。

电子信息与电气工程学院 电子信息与电气工程学院 马雨彤


【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有